Jensen–Shannon散度:衡量两个概率分布相似度的指标,常用于信息论与机器学习。它基于KL散度(Kullback–Leibler divergence)构造,通常对称、且数值有界(常见取对数底为2时最大为1)。在比较文本主题分布、模型输出分布等场景中很常用。(也常简称 JS divergence / JSD)
/ˈjɛnsən ˈʃænən daɪˈvɜːrdʒəns/
The Jensen–Shannon divergence between the two distributions is small.
这两个分布之间的Jensen–Shannon散度很小。
We used Jensen–Shannon divergence to compare the topic distributions of two documents, because it is symmetric and more stable than KL divergence in practice.
我们用Jensen–Shannon散度来比较两篇文档的主题分布,因为它是对称的,而且在实践中通常比KL散度更稳定。
该术语由两部分构成:Jensen 指“詹森不等式”(Jensen’s inequality)这一数学工具;Shannon 指信息论奠基人 Claude Shannon 及其“香农熵(Shannon entropy)”。“Jensen–Shannon散度”作为一种基于熵的分布差异度量,在学术文献中由后续研究系统化并推广(常见归因于 1991 年 Lin 的相关工作),名称体现了其数学基础与信息论渊源。